Data Ownership / 資料所有權

網際網路平臺對個人資料的使用問題由來已久。大科技公司以“個性化”體驗為由,捕獲、重複使用並出售使用者資料,試圖讓廣告和推送內容與使用者興趣更匹配。然而,這種行為常常讓使用者感到被侵入隱私,尤其當平臺不僅捕獲點選資料,還開始記錄與 AI 的互動時,關於資料歸屬的問題變得更加複雜。

生成式 AI 的發展使得個人資料的界限更加模糊:

在市場規範和原則尚未完全清晰的情況下,許多 AI 公司採用了 資料保留模式(Data Retention Pattern),為使用者提供一定程度的選擇。

功能細節與變體

資料共享選項通常以**開關選項(toggle)**形式出現在使用者或企業設定中,附帶簡短說明,解釋公司使用使用者資料改進模型的必要性。這些介面的設計趨於一致,但具體互動原則有所差異。

  1. 預設設定:選擇加入(Opt-in)或退出(Opt-out)

    預設開啟(Opt-in)
    大多數平臺如 ChatGPT、Substack 和 Github,預設將資料共享設定為開啟狀態。

    預設關閉(Opt-out)
    2024 年 Figma 在釋出 AI 功能時,預設將資料共享關閉,體現了使用者優先的設計理念。

  1. 付費與免費使用者的區別

    許多平臺僅對付費使用者提供資料共享開關,免費使用者預設共享資料。

    商業邏輯:AI 的執行成本高昂,免費使用者透過資料貢獻“付費”。

    趨勢:隨著相關法律逐步完善,預計這一模式將受到更大壓力。

  1. 企業賬戶與個人使用者的差異

    在企業級服務中,資料共享設定通常在管理員控制面板中,而非個人使用者設定中。

    目的:確保資料使用符合企業安全政策,無需依賴員工的個人操作。

  1. 完全隱私的解決方案

    一些公司如 Limitless.ai 不使用使用者資料訓練模型,並明確寫入隱私政策,禁止第三方合作伙伴利用使用者資料。

    設計建議:對這種策略,應在設定介面明確告知使用者,以免誤解為缺少隱私保障。

使用者控制的優勢

潛在風險與挑戰

未來方向與建議

Claude 遵循了與 ChatGPT 類似的設計規範。(Claude 的資料處理方式與 ChatGPT 相似,確保使用者可以在保留隱私的情況下體驗個性化功能,從而實現隱私保護與功能最佳化的平衡。)

Claude 遵循了與 ChatGPT 類似的設計規範。(Claude 的資料處理方式與 ChatGPT 相似,確保使用者可以在保留隱私的情況下體驗個性化功能,從而實現隱私保護與功能最佳化的平衡。)

Figma 預設將使用者賬戶設定為不參與 AI 資料共享,並向使用者提供詳細的說明,解釋如果選擇加入資料會被如何使用。(這種預設“退出”的設計為使用者提供了更高的隱私保護,同時透過透明的資訊說明讓使用者在選擇加入時有更清晰的認知。)
ChatGPT 修改了其設計框架,允許使用者儲存個人記憶,而無需將其資料用於模型訓練。(這一改變旨在提高使用者資料的隱私性和安全性,讓使用者能夠更好地管理自己的資訊,同時增強對平臺的信任感。)
Notion 預設將使用者設定為不參與資料共享,但會在介面中提示使用者選擇是否加入。(這一設計遵循隱私優先的原則,同時透過介面內的提示為使用者提供方便的選擇權,讓使用者能夠根據自己的需求決定是否共享資料。)